Одним из ключевых нововведений VMware vSphere 5, безусловно, стала технология выравнивания нагрузки на хранилища VMware vSphere Storage DRS (SDRS), которая позволяет оптимизировать нагрузку виртуальных машин на дисковые устройства без прерывания работы ВМ средствами технологии Storage vMotion, а также учитывать характеристики хранилищ при их первоначальном размещении.
Основными функциями Storage DRS являются:
Балансировка виртуальных машин между хранилищами по вводу-выводу (I/O)
Балансировка виртуальных машин между хранилищами по их заполненности
Интеллектуальное первичное размещение виртуальных машин на Datastore в целях равномерного распределения пространства
Учет правил существования виртуальных дисков и виртуальных машин на хранилищах (affinity и anti-affinity rules)
Ключевыми понятими Storage DRS и функции Profile Driven Storage являются:
Datastore Cluster - кластер виртуальных хранилищ (томов VMFS или NFS-хранилищ), являющийся логической сущностью в пределах которой происходит балансировка. Эта сущность в чем-то похожа на обычный DRS-кластер, который составляется из хост-серверов ESXi.
Storage Profile - профиль хранилища, используемый механизмом Profile Driven Storage, который создается, как правило, для различных групп хранилищ (Tier), где эти группы содержат устройства с похожими характеристиками производительности. Необходимы эти профили для того, чтобы виртуальные машины с различным уровнем обслуживания по вводу-выводу (или их отдельные диски) всегда оказывались на хранилищах с требуемыми характеристиками производительности.
При создании Datastore Cluster администратор указывает, какие хранилища будут в него входить (максимально - 32 штуки в одном кластере):
Как и VMware DRS, Storage DRS может работать как в ручном, так и в автоматическом режиме. То есть Storage DRS может генерировать рекомендации и автоматически применять их, а может оставить их применение на усмотрение пользователя, что зависит от настройки Automation Level.
С точки зрения балансировки по вводу-выводу Storage DRS учитывает параметр I/O Latency, то есть round trip-время прохождения SCSI-команд от виртуальных машин к хранилищу. Вторым значимым параметром является заполненность Datastore (Utilized Space):
Параметр I/O Latency, который вы планируете задавать, зависит от типа дисков, которые вы используете в кластере хранилищ, и инфраструктуры хранения в целом. Однако есть некоторые пороговые значения по Latency, на которые можно ориентироваться:
SSD-диски: 10-15 миллисекунд
Диски Fibre Channel и SAS: 20-40 миллисекунд
SATA-диски: 30-50 миллисекунд
По умолчанию рекомендации по I/O Latency для виртуальных машин обновляются каждые 8 часов с учетом истории нагрузки на хранилища. Также как и DRS, Storage DRS имеет степень агрессивности: если ставите агрессивный уровень - миграции будут чаще, консервативный - реже. Первой галкой "Enable I/O metric for SDRS recommendations" можно отключить генерацию и выполнение рекомендаций, которые основаны на I/O Latency, и оставить только балансировку по заполненности хранилищ.
То есть, проще говоря, SDRS может переместить в горячем режиме диск или всю виртуальную машину при наличии большого I/O Latency или высокой степени заполненности хранилища на альтернативный Datastore.
Самый простой способ - это балансировка между хранилищами в кластере на базе их заполненности, чтобы не ломать голову с производительностью, когда она находится на приемлемом уровне.
Администратор может просматривать и применять предлагаемые рекомендации Storage DRS из специального окна:
Когда администратор нажмет кнопку "Apply Recommendations" виртуальные машины за счет Storage vMotion поедут на другие хранилища кластера, в соответствии с определенным для нее профилем (об этом ниже).
Аналогичным образом работает и первичное размещение виртуальной машины при ее создании. Администратор определяет Datastore Cluster, в который ее поместить, а Storage DRS сама решает, на какой именно Datastore в кластере ее поместить (основываясь также на их Latency и заполненности).
При этом, при первичном размещении может случиться ситуация, когда машину поместить некуда, но возможно подвигать уже находящиеся на хранилищах машины между ними, что освободит место для новой машины (об этом подробнее тут):
Как видно из картинки с выбором кластера хранилищ для новой ВМ, кроме Datastore Cluster, администратор первоначально выбирает профиль хранилищ (Storage Profile), который определяет, по сути, уровень производительности виртуальной машины. Это условное деление хранилищ, которое администратор задает для хранилищ, обладающих разными характеристиками производительности. Например, хранилища на SSD-дисках можно объединить в профиль "Gold", Fibre Channel диски - в профиль "Silver", а остальные хранилища - в профиль "Bronze". Таким образом вы реализуете концепцию ярусного хранения данных виртуальных машин:
Выбирая Storage Profile, администратор будет всегда уверен, что виртуальная машина попадет на тот Datastore в рамках выбранного кластера хранилищ, который создан поверх дисковых устройств с требуемой производительностью. Профиль хранилищ создается в отельном интерфейсе VM Storage Profiles, где выбираются хранилища, предоставляющие определенный набор характеристик (уровень RAID, тип и т.п.), которые платформа vSphere получает через механизм VASA (VMware vStorage APIs for Storage Awareness):
Ну а дальше при создании ВМ администратор определяет уровень обслуживания и характеристики хранилища (Storage Profile), а также кластер хранилища, датасторы которого удовлетворяют требованиям профиля (они отображаются как Compatible) или не удовлетворяют им (Incompatible). Концепция, я думаю, понятна.
Регулируются профили хранилищ для виртуальной машины в ее настройках, на вкладке "Profiles", где можно их настраивать на уровне отдельных дисков:
На вкладке "Summary" для виртуальной машины вы можете увидеть ее текущий профиль и соответствует ли в данный момент она его требованиям:
Также можно из оснастки управления профилями посмотреть, все ли виртуальные машины находятся на тех хранилищах, профиль которых совпадает с их профилем:
Далее - правила размещения виртуальных машин и их дисков. Определяются они в рамках кластера хранилищ. Есть 3 типа таких правил:
Все виртуальные диски машины держать на одном хранилище (Intra-VM affinity) - установлено по умолчанию.
Держать виртуальные диски обязательно на разных хранилищах (VMDK anti-affinity) - например, чтобы отделить логи БД и диски данных. При этом такие диски можно сопоставить с различными профилями хранилищ (логи - на Bronze, данны - на Gold).
Держать виртуальные машины на разных хранилищах (VM anti-affinity). Подойдет, например, для разнесения основной и резервной системы в целях отказоустойчивости.
Естественно, у Storage DRS есть и свои ограничения. Основные из них приведены на картинке ниже:
Основной важный момент - будьте осторожны со всякими фичами дискового массива, не все из которых могут поддерживаться Storage DRS.
И последнее. Технологии VMware DRS и VMware Storage DRS абсолютно и полностью соместимы, их можно использовать совместно.
Мы уже писали о возможностях настольной платформы виртуализации VMware Workstation 8, а также функционале, который нас ожидает в Workstation 2012. Раньше, когда еще существовал VMware Server, многие небольшие компании использовали именно его, поскольку он был прост и бесплатен, а что важнее - не требовал специфического "железа". Даже когда вышел бесплатный VMware ESXi (сейчас он, напомним, называется vSphere Hypervisor), многие по-прежнему использовали VMware Server, где не требовалось никаких особенных навыков администрирования, в отличие от ESXi.
А потом VMware Server не стало, и пользователи в маленьких компаниях, которые не могут позволить купить себе нормальные серверы и хранилища, остались ни с чем. Приходилось покупать Whitebox'ы для ESXi или использовать VMware Workstation. Так вот специально для таких пользователей в восьмой версии Workstation появились "серверные" функции, реализующе "общие виртуальные машины", описание которых можно увидеть на видео ниже:
Также в VMware Workstation 8 есть возможность автостарта виртуальных машин при старте компьютера, который раньше приходилось реализовывать самостоятельно. С шарингом виртуальных машин все просто - вы назначаете привилегии на виртуальные машины пользователям, а в консоли Workstation они появляются в категории Shared VMs. Панель так и озаглавлена: VMware Workstation Server:
Правда при таком их использовании теряются следующие функции:
Unity
Shared Folders
AutoProtect
Drag and drop
Copy and paste
Но, надо сказать, что серверам они не особенно-то и нужны. Такая модель использования VMware Workstation пригодиться рабочим группам и в крупных компаниях, которым не требуются возможности производственного датацентра компании, в первую очередь разработчикам и тестировщикам.
Rob de Veij, выпускающий бесплатную утилиту для настройки и аудита виртуальной инфраструктуры VMware vSphere (о ней мы не раз писали), выпусил обновление RVTools 3.3. Кстати, со времен выпуска версии 3.0, RVTools научилась поддерживать ESXi 5.0 и vCenter 5.0.
Новые возможности RVTools 3.3:
Таймаут GetWebResponse увеличен с 5 минут до 10
Новая вкладка с информацией о HBA-адаптерах (на картинке выше)
Приведена в порядок вкладка vDatastore
Функция отсылки уведомлений по почте RVToolsSendMail поддерживает несколько получателей через запятую
Информация о папке VMs and Templates показывается на вкладке vInfo
Несколько исправлений багов
Скачать полезную и бесплатную RVTools 3.3 можно по этой ссылке. Что можно увидеть на вкладках описано здесь.
В преддверии выхода новой версии платформы для виртуализации настольных ПК VMware View 5.1, о котором будет объявлено 3 мая, продолжаем рассказывать о новых возможностях этого продукта. Сегодня продолжим разговор о функции Content Based Read Cache (CBRC), которая позволяет увеличить производительность операций чтения для наиболее часто читаемых блоков виртуальных ПК.
Как мы уже писали ранее, Content Based Read Cache - это функция кэширования в оперативной памяти хоста VMware ESXi, которая уже реализована в VMware vSphere 5. Убедиться в этом вы можете сами, открыв Advanced Settings на хосте:
Как мы видим из картинки, есть планка для CBRC размером в 2 ГБ, которую нельзя менять и есть текущее значение памяти, зарезервированной для кэша. Кроме того, есть настройка таймаута при загрузке хоста для дайджест-журнала SCSI, который хранит в себе хэш-таблицу блоков, которые учитывает кэш CBRC при их запросе от виртуальной машины.
Этот дайджест хранится в папке с виртуальной машиной в виде отдельного VMDK-файла:
То есть, при чтении виртуальной машиной блока с хранилища, он сначала ищется в кэше, и, если он там отсутствует, то он туда помещается и отдается виртуальной машине. Ну а если он в кэше есть - то сразу ей отдается. Соответственно, кэш CBRC увеличивает производительность при операциях чтения виртуальных машин хоста с одними и теми же блоками, что часто бывает в инфраструктуре VDI. Особенно это актуально при одновременной загрузке десятков виртуальных ПК, которая может вызвать так называемый Boot Storm. Посмотрите, как увеличивается интенсивность операций чтения при загрузке Windows ВМ, с которую может существенно "погасить" CBRC:
Надо отметить, что CBRC - это чисто хостовая фишка VMware vSphere, которую может поддерживать любое надстроенное VDI-решение (например, Citrix XenDesktop). А вот в VMware View поддержка CBRC будет идти под эгидой функции VMware View Storage Accelerator:
Как понятно из описанного выше, для такой поддержки практически ничего уже и делать не нужно - все есть в ESXi 5.0.
Во второй части заметки рассмотрим возможность VMware View Client Side Caching, которая представляет собой использование кэша в оперативной памяти устройств доступа к виртуальным ПК (тонкие и толстые клиенты с View Client) для картинки рабочего стола (а точнее, ее регионов). Эта возможность появилась уже в VMware View 5.0 и включена по умолчанию: 250 МБ памяти используется на клиенте, за исключением всяких Android и iOS-устройств.
Представьте, что вы просматриваете в виртуальном ПК PDF-документ. Рамка и контролы в ридере остаются на месте, а его содержимое скроллится в ограниченной области экрана. Вот для этого и нужен Client Side Caching - он позволяет закэшировать этот неизменяющийся фрагмент картинки экрана и не обращаться за ним к хосту и хранилищу. Это увеличивает производительность виртуального ПК до 30%.
Настраивается это просто - через шаблон групповой политики pcoip.adm, про работу с которым написано, например, вот тут. Настройка GPO называется "Configure PCoIP client image cache size policy":
Диапазон допустимых значений - от 50 до 300 МБ. Работает эта штука и для Linux-устройств. С ней есть тоже одна засада - если на тонком клиенте мало оперативной памяти (меньше 1 ГБ), клиентский кэш луше немного уменьшить, если наблюдаются проблемы с производительностью.
Мы уже не раз писали о продукте номер 1 - vGate R2, который является лидером на рынке защиты виртуальных инфраструктур за счет средств автоматической настройки виртуальной среды VMware vSphere и механизмов защиты от несанкционированного доступа. Сегодня мы поговорим о резервировании сервера авторизации vGate R2. Сервер авторизации - это основной компонент vGate R2, который осуществляет авторизацию и аутентификацию пользователей, без которого нельзя будет администрировать среду VMware vSphere, если он вдруг выйдет из строя. Он выполняет следующие функции...
Таги: Security Code, Security, VMware, vSphere, HA, ESXi, vGate
Мы уже писали о том, как сбросить пароль root на VMware ESX версии 4.0 и 4.1 в случае, если вы забыли его (тут для single user mode). Теперь появилась еще одна инструкция от Бернарда, которая аналогична предыдущей от Дэйва и работает для VMware ESXi 5.0. Перед тем, как сбросить пароль на VMware ESXi, надо понимать, что приведенная ниже инструкция может привести к неподдерживаемой со стороны VMware конфигурации, о чем прямо написано в KB 1317898.
Итак восстановление пароля на хосте ESXi 5.0:
1. Хэш пароля хранится в файле etc/shadow, который хранится в архиве local.tgz, который хранится в архиве state.tgz:
2. Загружаем сервер ESXi с какого-нибудь Live CD (например, GRML), используя CD/DVD или USB-флешку.
3. После загрузки находим и монтируем раздел VFAT инсталляции ESXi, содержащий файл state.tgz. Например, он может быть на разделе Hypervisor3:
6. В результате распаковки получим директорию /etc, в которой есть файл shadow. Открываем его в vi для редактирования:
vi etc/shadow
Удаляем хэш пароля root (до двоеточия перед цифрами). Было:
Стало:
7. Сохраняем резервную копию state.tgz и перепаковываем архив:
mv /mnt/Hypervisor3/state.tgz /mnt/Hypervisor3/state.tgz.bak
rm local.tgz
tar czf local.tgz etc
tar czf state.tgz local.tgz
mv state.tgz /mnt/Hypervisor3/
8. Перезагружаем сервер и уже загружаемся в VMware ESXi 5.0. Видим такую картинку при соединении из vSphere Client:
Это значит, что все получилось. Теперь можем заходить в консоль под пользователем root с пустым паролем. Работает эта штука и для VMware ESXi 5.0 Upfate 1.
Как известно, компания VMware уже довольно давно выпускает руководство по обеспечению информационной безопасности VMware vSphere Security Hardening Guide (тут и тут), содержащее список потенциальных угроз ИБ и их возможное влияние на инфраструктуру виртуализации. Также доступен Security Hardening Guide для VMware View и vCloud Director.
Виртуальные машины (настройки, устройства, интерфейсы, VMware Tools)
Хосты VMware ESXi (доступ к управлению, логи, хранилища)
Сетевое взаимодействие (включая распределенный коммутатор dvSwitch)
Сервер управления vCenter (доступ к управляющим компонентам и т.п.)
На данный момент руководство доступно в виде xlsx-табличек:
Основная страница обсуждения документа находится здесь.
Кроме того, вчера же появился и документ "vSphere Hardening Guide: 4.1 and 5.0 comparison", отражающий основные отличия руководства для версий 4.1 и 5.0. Там хорошо видно, какие новые фичи vSphere 5 покрывает новая версия документа:
Соответственно, можно ожидать скорого появления обновленных версий продуктов vGate R2 и vGate Compliance Checker, позволяющих проверить соответствия вашей инфраструктуры нормам данного руководящего документа и настроить виртуальную инфраструктуру VMware vSphere в соответствии с ними средствами политик.
При эксплуатации виртуальной инфраструктуры VMware vSphere иногда случается ситуация, когда виртуальную машину нельзя включить из-за того, что ее какой-нибудь из ее файлов оказывается залоченным. Происходит это при разных обстоятельствах: неудачной миграции vMotion / Storage vMotion, сбоях в сети хранения и прочих.
Наиболее распространенная ошибка при этом выглядит так:
Could not power on VM: Lock was not free
Встречаются также такие вариации сообщений и ошибок при попытке включения виртуальной машины, которое зависает на 95%:
Unable to open Swap File
Unable to access a file since it is locked
Unable to access a file <filename> since it is locked
Unable to access Virtual machine configuration
Ну а при попытке соединения с консолью ВМ получается вот такое:
Error connecting to <path><virtual machine>.vmx because the VMX is not started
Все это симптомы одной проблемы - один из следующих файлов ВМ залочен хост-сервером VMware ESXi:
<VMNAME>.vswp
<DISKNAME>-flat.vmdk
<DISKNAME>-<ITERATION>-delta.vmdk
<VMNAME>.vmx
<VMNAME>.vmxf
vmware.log
При этом залочил файл не тот хост ESXi, на котором машина зарегистрирована. Поэтому решение проблемы в данном случае - переместить ВМ холодной миграций на тот хост, который залочил файл и включить ее там, после чего уже можно переносить ее куда требуется. Но как найти тот хост ESXi, который залочил файл? Об этом и рассказывается ниже.
Поиск залоченного файла ВМ
Хорошо если в сообщении при запуске виртуальной машины вам сообщили, какой именно из ее файлов оказался залоченным (как на картинке выше). Но так бывает не всегда. Нужно открыть лог vmware.log, который расположен в папке с виртуальной машиной, и найти там строчки вроде следующих:
Failed to initialize swap file : Lock was not free
Тут видно, что залочен .vswp-файл ВМ.
За логом на экране можно следить командой (запустите ее и включайте ВМ):
tail /vmfs/volumes/<UUID>/<VMDIR>/vmware.log
Проверка залоченности файла ВМ и идентификация владельца лока
После того, как залоченный файл найден, нужно определить его владельца. Сначала попробуем команду touch, которая проверяет, может ли бы обновлен time stamp файла, т.е. можно ли его залочить, или он уже залочен. Выполняем следующую команду:
# touch /vmfs/volumes/<UUID>/<VMDIR>/<filename>
Если файл уже залочен, мы получим вот такое сообщение для него:
В значении "owner" мы видим MAC-адрес залочившего файл хоста VMware ESXi (выделено красным). Ну а как узнать MAC-адрес хоста ESXi - это вы должны знать. Дальше просто делаем Cold Migration виртуальной машины на залочивший файл хост ESXi и включаем ее там.
Те, кто хочет дальше изучать вопрос, могут проследовать в KB 10051.
Компания VMware в базе знаний опубликовала интересный плакат "VMware vSphere 5 Memory Management and Monitoring diagram", раскрывающий детали работы платформы VMware vSphere 5 с оперативной памятью серверов. Плакат доступен как PDF из KB 2017642:
Основные техники оптимизации памяти хостов ESXi, объясняемые на плакате:
Ключевые особенности продукта от Symantec - возможность динамической балансировки запросов ввода-вывода с хоста по нескольким путям одновременно, поддержка работы с основными дисковыми массивами, представленными на рынке, и возможность учитывать характеристики хранилищ (RAID, SSD, Thin Provisioning).
Как можно узнать из нашей статьи про PSA, Veritas Dynamic Multi-Pathing (DMP) - это MPP-плагин для хостов ESXi:
Veritas DMP позволяет интеллектуально балансировать нагрузку с хостов ESXi в SAN, обеспечивать непрерывный мониторинг и статистику по путям в реальном времени, автоматически восстанавливать путь в случае сбоя и формировать отчетность через плагин к vCenter обо всех хранилищах в датацентре. Что самое интересное - это можно будет интегрировать с физическим ПО для доступа по нескольким путям (VxVM) в единой консоли.
Всего в Veritas DMP существует 7 политик для балансировки I/O-запросов, которые могут быть изменены "на лету" и позволят существенно оптимизировать канал доступа к хранилищу по сравнению со стандартным плагином PSP от VMware. Кстати, в терминологии Symantec, этот продукт называется - VxDMP.
Стоимость этой штуки - от 900 долларов за четырехъядерный процессор хоста (цена NAM). Полезные ссылки:
Как знают администраторы VMware vSphere в крупных компаниях, в этой платформе виртуализации есть фреймворк, называющийся VMware Pluggable Storage Architecture (PSA), который представляет собой модульную архитектуру работы с хранилищами SAN, позволяющую использовать ПО сторонних производителей для работы с дисковыми массивами и путями.
Выглядит это следующим образом:
А так понятнее:
Как видно из второй картинки, VMware PSA - это фреймворк, работа с которым происходит в слое VMkernel, отвечающем за работу с хранилищами. Расшифруем аббревиатуры:
VMware NMP - Native Multipathing Plug-In. Это стандартный модуль обработки ввода-вывода хоста по нескольким путям в SAN.
Third-party MPP - Multipathing plug-in. Это модуль стороннего производителя для работы по нескольким путям, например, EMC Powerpath
VMware SATP - Storage Array Type Plug-In. Это часть NMP от VMware (подмодуль), отвечающая за SCSI-операции с дисковым массивом конкретного производителя или локальным хранилищем.
VMware PSP - Path Selection Plug-In. Этот подмодуль NMP отвечает за выбор физического пути в SAN по запросу ввода-вывода от виртуальной машины.
Third-party SATP и PSP - это подмодули сторонних производителей, которые исполняют означенные выше функции и могут быть встроены в стандартный NMP от VMware.
MASK_PATH - это модуль, который позволяет маскировать LUN для хоста VMware ESX/ESXi. Более подробно о работе с ним и маскировании LUN через правила написано в KB 1009449.
Из этой же картинки мы можем заключить следующее: при выполнении команды ввода-вывода от виртуальной машины, VMkernel перенаправляет этот запрос либо к MPP, либо к NMP, в зависимости от установленного ПО и обращения к конкретной модели массива, а далее он уже проходит через подуровни SATP и PSP.
Уровень SATP
Это подмодули, которые обеспечивают работу с типами дисковых массивов с хоста ESXi. В составе ПО ESXi есть стандартный набор драйверов, которые есть под все типы дисковых массивов, поддерживаемых VMware (т.е. те, что есть в списке совместимости HCL). Кроме того, есть универсальные SATP для работы с дисковыми массивами Active-active и ALUA (где LUN'ом "владеет" один Storage Processor, SP).
Каждый SATP умеет "общаться" с дисковым массивом конкретного типа, чтобы определить состояние пути к SP, активировать или деактивировать путь. После того, как NMP выбрал нужный SATP для хранилища, он передает ему следующие функции:
Мониторинг состояния каждого из физических путей.
Оповещение об изменении состояний путей
Выполнение действий, необходимый для восстановления пути (например failover на резервный путь для active-passive массивов)
Посмотреть список загруженных SATP-подмодулей можно командой:
esxcli nmp satp list
Уровень PSP
Path Selection Plug-In отвечает за выбор физического пути для I/O запросов. Подмодуль SATP указывает PSP, какую политику путей выставить для данного типа массива, в зависимости от режима его работы (a-a или a-p). Вы можете переназначить эту политику через vSphere Client, выбрав пункт "Manage Paths" для устройства:
Для LUN, презентуемых с массивов Active-active, как правило, выбирается политика Fixed (preferred path), для массивов Active-passive используется дефолтная политика Most Recently Used (MRU). Есть также и еще 2 политики, о которых вы можете прочитать в KB 1011340. Например, политика Fixed path with Array Preference (VMW_PSP_FIXED_AP) по умолчанию выбирается для обоих типов массивов, которые поддерживают ALUA (EMC Clariion, HP EVA).
Надо отметить, что сторонний MPP может выбирать путь не только базовыми методами, как это делает VMware PSP, но и на базе статистического интеллектуального анализа загрузки по нескольким путям, что делает, например, ПО EMC Powerpath. На практике это может означать рост производительности доступа по нескольким путям даже в несколько раз.
Работа с фреймворком PSA
Существуют 3 основных команды для работы с фреймворком PSA:
esxcli, vicfg-mpath, vicfg-mpath35
Команды vicfg-mpath и vicfg-mpath35 аналогичны, просто последняя - используется для ESX 3.5. Общий список доступных путей и их статусы с информацией об устройствах можно вывести командой:
vicfg-mpath -l
Через пакет esxcli можно управлять путями и плагинами PSA через 2 основные команды: corestorage и nmp.
Надо отметить, что некоторые команды esxcli работают в интерактивном режиме. С помощью nmp можно вывести список активных правил для различных плагинов PSA (кликабельно):
esxcli corestorage claimrule list
Есть три типа правил: обычный multipathing - MP (слева), FILTER (аппаратное ускорение включено) и VAAI, когда вы работаете с массивом с поддержкой VAAI. Правила идут в порядке возрастания, с номера 0 до 101 они зарезервированы VMware, пользователь может выбирать номера от 102 до 60 000. Подробнее о работе с правилами можно прочитать вот тут.
Правила идут парами, где file обозначает, что правило определено, а runtime - что оно загружено. Да, кстати, для тех, кто не маскировал LUN с версии 3.5. Начиная с версии 4.0, маскировать LUN нужно не через настройки в vCenter на хостах, а через объявление правил для подмодуля MASK_PATH.
Для вывода информации об имеющихся LUN и их опциях в формате PSA можно воспользоваться командой:
esxcli nmp device list
Можно использовать всю ту же vicfg-mpath -l.
Ну а для вывода информации о подмодулях SATP (типы массивов) и PSP (доступные политики путей) можно использовать команды:
esxcli nmp satp list
esxcli nmp psp list
Ну а дальше уже изучайте, как там можно глубже копать. Рекомендуемые документы:
В составе дистрибутива платформы виртуализации VMware vSphere 5 идет новая служба позволяющая удаленно собирать логи с хост-серверов ESX/ESXi (как пятой так и более ранних версий) - VMware Syslog Collector. Это средство идет в стандартной поставке вместе с VMware vCenter 5 и подходит для тех, кому лень заморачиваться с платными и новороченными Syslog-серверами, которых сейчас на рынке немало. Зачем вообще нужен Syslog-сервер в вашей инфраструктуре? Очень просто - безопасность и централизованный сбор логов в целях аудита и решения проблем.
Как знают все администраторы VMware vSphere, виртуальный диск виртуальной машины представляется как минимум в виде двух файлов:
<имя ВМ>.vmdk - заголовочный, он же индексный, он же файл-дескриптор виртуальго диска, который содержит информацию о геометрии диска, его тип и другие метаданные
<имя ВМ>-flat.vmdk - непосредственно диск с данными ВМ
Практика показывает, что нередки ситуации, когда администраторы VMware vSphere теряют заголовочный файл VMDK по некоторым причинам, иногда необъяснимым, и остается только диск с данными ВМ (неудивительно, ведь в него идет запись, он залочен).
Ниже приведена краткая процедура по восстановлению дескрипторного VMDK-файла для существующего flat-VMDK, чтобы восстановить работоспособность виртуальной машины. Подробную инструкцию можно прочитать в KB 1002511.
Итак, для тех, кто любит смотреть видеоинструкции:
Для тех, кто не любит:
1. Определяем точный размер в байтах VMDK-диска с данными (чтобы геометрия нового созданного дескриптора ему соответствовала):
ls -l <имя диска>-flat.vmdk
2. Создаем новый виртуальный диск (цифры - это полученный размер в байтах, тип thin для экономии места, lsilogic - контроллер):
vmkfstools -c 4294967296 -a lsilogic -d thin temp.vmdk
3. Переименовываем дескрипторный VMDK-файл созданного диска в тот файл, который нам нужен для исходного диска. Удаляем только что созданный пустой диск данных, который уже не нужен (temp-flat.vmdk).
На блоге наших коллег из vmind.ru появилась дорожная карта развития продуктовой линейки компании VMware в сфере виртуализации и облачной инфраструктуры: "VMware Cloud Infrastructure
Product Roadmap". Не знаю, является данный документ конфиденциальным сейчас, но, поскольку он уже опубликован, приведем несколько интересных картинок для тех, кому лень ходить по ссылке.
Управление ресурсами:
Безопасность:
VMware vCloud Director:
Ну а в конце презентации - максимумы продуктов (7 слайдов):
Сейчас на VMware Communities обсуждается очередной баг в бесплатном гипервизоре VMware ESXi 5.0 Update 1 (он же vSphere Hypervisor). Приведенная ниже информация касается только пользователей бесплатного ESXi и не затрагивает владельцев любого из платных изданий vSphere.
Итак, когда вы обновляете VMware ESXi 5.0 на ESXi 5.0 Update 1, вы обнаруживаете неприятную особенность: функции Auto Start для виртуальных машин больше не работают (то есть машины при старте хост-сервера не запускаются). И это несмотря на то, что настройки автоматического запуска виртуальных машин работают:
Проблема начинается с билда 623860 и, повторимся, не касается платных изданий ESXi в составе vSphere. Слухи о том, что это, ходят разные: либо это новое ограничение бесплатного ESXi, либо обычный баг. Вроде бы все в итоге склоняются, что обычный баг. Сама VMware обещает поправить это в VMware vSphere 5.0 Update 2.
Если функции автоматического запуска виртуальных машин в бесплатном ESXi так важны, то вы можете откатиться до ESXi 5.0 просто нажав при загрузке Shift+R для входа в Recovery Mode, где можно откатить Update 1:
Более подробную информацию можно получить вот в этой статье на блогах VMware.
Support for new processors – ESXi 5.0 Update 1 поддерживает новые процессоры AMD и Intel, которые приведены в VMware Compatibility Guide.
Support for additional guest operating systems – В ESXi 5.0 Update 1 появилась поддержка гостевых ОС Mac OS X Server Lion 10.7.2 и 10.7.3.
New or upgraded device drivers – В ESXi 5.0 Update 1 появилась поддержка драйверов Native Storage Drivers для чипсетов Intel C600 series, а драйвер LSI MegaRAID SAS продвинулся до версии 5.34.
Также были исправлены несколько зафикисрованных ранее проблем.
Новые возможности VMware vCenter 5.0 Update 1:
Улучшения механизма Guest Operating System Customization. Теперь vCenter Server может кастомизировать при развертывании следующие ОС:
Windows 8
Ubuntu 11.10
Ubuntu 11.04
Ubuntu 10.10
Ubuntu 10.04 LTS
SUSE Linux Enterprise Server 11 SP2
Кроме того, прошло массовое обновление следующих продуктов VMware:
Возможность Forced Failover, которая позволяет восстановление ВМ в случаях, когда дисковый массив отказывает на защищенном сайте, который ранее не мог остановить и разрегистрировать ВМ.
IP customization для некоторых релизов Ubuntu
Вернулась расширенная настройка storageProvider.hostRescanCnt (см. тут)
Массивы, сертифицированные на версии 5.0 автоматически пересертифицированы на 5.0.1
Обновленные версии VMware View Connection Server 5.0.1, который включает replica server, security server и View Transfer Server, а также VMware View Agent 5.0.1, VMware View Client for Windows 5.0.1
View Client for Mac OS X теперь поддерживает коммуникацию с виртуальными ПК по PCoIP (см. тут)
VMware View Client for Ubuntu Linux1.4 с поддержкой PCoIP
Новые релизы View client for Android и View Client for iPad (все клиенты View теперь консолидированно качаются тут)
Требование по наличию SSL-сертификатов со стороны клиента
И отметим, что VMware vSphere 5 Update 1 несовместима с некоторыми другими еще не обновленными продуктами VMware (наприме, Data Recovery 2.0). Поэтому вам может оказаться полезной следующая картинка совместимости от Джейсона:
Недавно мы писали о такой интересной вещи как Managed Object Browser (MOB), которая доступна через веб-сервер, работющий на сервере VMware vCenter (а также напрямую через веб-доступ к ESXi). А что вообще есть еще интересного на этом веб-сервере? Давайте посмотрим:
1. Если вы еще не пользовались веб-клиентом VMware vSphere Web Client в vSphere 5.0, самое время сделать это, зайдя по ссылке:
https://<имя vcenter>
Этот клиент умеет очень многое из того, что делает обычный "толстый" клиент:
2. Там же, на стартовом экране веб-сервера vCenter, вы можете нажать "Browse Datastores in the vSphere Inventory" и просмотреть хранилища, прикрепленные к хостам ESXi, прицепленным к vCenter:
3. Следующая интересная вещь - vCenter operational dashboard, компонент, который позволяет просматривать статистики по различным событиям, произошедшим в виртуальной инфраструктуре vSphere. Он доступен по ссылке:
http://<имя vCenter>/vod/index.html
Смотрите как интересно (кликабельно) - там много разых страничек:
4. Ну и на закуску - просмотр конфигурации и лог-файлов хоста ESXi через его веб-сервер (предварительно должен быть включен доступ по SSH). Зайдите по ссылке:
https://<имя ESXi>/host
Здесь можно ходить по папкам /etc, /etc/vmware и /var/log, исследуя логи хоста и его конфигурацию:
Таги: VMware, vCenter, Web Access, Web Client, vSphere, ESXi, Blogs
Все разработчики, но не все администраторы VMware vSphere 5 знают, что есть такой инструмент Managed Object Browser (MOB), который позволяет просматривать структуру программных объектов хоста или сервера vCenter и вызывать различные методы через API.
Работать с MOB через браузер можно двумя способами (потребуется ввод административного пароля):
По ссылке на хост ESXi: http://<имя хоста>/mob
По ссылке на сервер vCenter: http://<имя vCenter>/mob
Вот, например, методы для работы с виртуальными дисками:
Вообще, полазить там для администратора будет интересно и полезно - можно узнать много нового о том, какие свойства есть у различных объектов vSphere. И прямо оттуда можно создавать различные объекты виртуальной среды с их параметрами.
Ну а пост этот о том, что в VMware vSphere 5 появился еще один раздел MOB - mobfdm, доступный по ссылке:
http://<имя хоста>/mobfdm
Этот MOB позволяет вызывать методы Fault Domain Manager, отвечающего за работу механизма VMware HA. Там можно узнать много интересного: какие хосты master и slave, список защищенных ВМ, Heartbeat-датасторы, состояние кластера и многое другое.
Покопайтесь - это интересно.
Таги: VMware, vSphere, Обучение, ESXi, vCenter, VMachines, FDM, HA
Иногда бывает необходимо поменять IP адрес сервера vCenter Server в продуктивной, а чаще в тестовой, среде. Это не так просто - хосты ESXi, подключенные к vCenter, переходят в состояние Disconnected. Ниже приведен способ восстановления конфигурации vCenter, хостов ESXi, Update Manager и Auto Deploy после изменения IP-адреса vCenter.
1. Поменяйте IP-адрес сервера vCenter и переприсоедините его к домену Active Directory.
2. После этого произойдут следующие вещи:
Хосты ESXi перейдут в статус "disconnected" - это происходит потому, что каждый хост ESXi хранит IP-адрес vCenter в конфигурационном файле vpxa.cfg
Перестанет работать vSphere Update Manager - по той же причине, только у него есть файл extension.xml
Перестанет работать vSphere Auto Deploy - у него файлик vmconfig-autodeploy.xml
3. Для переприсоединения хоста ESXi к серверу vCenter вы можете удалить его из окружения vCenter и добавить повторно через vSphere Client, но этот способ приведет к потере данных о производительности хоста, что не очень хорошо. Поэтому нужно сделать так:
Зайти на сервер ESXi по SSH (сначала нужно его включить)
Открыть файл /etc/vmware/vpxa/vpxa.cfg
Изменить в нем секцию <serverIP>, указав новый IP-адрес vCenter:
Перезапустить management agents на хосте ESXi 5 командой # /sbin/services.sh restart, либо из DCUI как показано на видео ниже:
За более подробной информацией обращайтесь к KB 1001493.
После всего этого перезапустите службу "VMware VirtualCenter Server" на сервере vCenter.
4. Теперь приступаем к vSphere Update Manager. Заходим на машину, где он установлен, и переходим в папку C:\Program Files (x86)\VMware\Infrastructure\Update Manager, где открываем файл extension.xml и редактируем секцию <healthUrl>, указав новый IP-адрес vCenter Server:
Теперь открываем командную строку (cmd). Переходим в папку C:\Program Files (x86)\VMware\Infrastructure\Update Manager. Там выполняем следующую команду:
где <vc_ip> = новый IP vCenter Server, а <vc_http_port> = 80. Параметры <user_name> и <password> - учетная запись администратора vCenter.
Если все прошло нормально, вывод будет выглядеть подобным образом:
Далее запускаем C:\Windows\ SysWOW64\obcad32.exe на сервере Update Manager. Там переходим на вкладку "System DSN" и нажимаем кнопку Configure. Идем до конца мастера по шагам и успешно проходим тест:
Пробуем запустить службу VMware vSphere Update Manager Service и получаем ошибку:
There was an error connecting to VMware vSphere Update Manager – [vc5:443]. Fault.HostNotReacable.summary
Поэтому переходим в папку C:\Program Files (x86)\VMware\Infrastructure Update Manager и открываем файл vci-integrity.xml, где в секции <vpxdLocation> вводим новый IP-адрес vCenter.
Теперь перезапускаем VMware vSphere Update Manager Service и включаем VMware vSphere Update Manger Extension в vSphere Client. После этого все должно заработать.
Решение номер 1 - StarWind iSCSI SAN - для создания отказоустойчивых хранищ под виртуальные машины серверов VMware ESXi и Microsoft Hyper-V снова в продаже со скидками, которые уменьшаются каждый день. Торопитесь!
Календарь скидок в процентах при заказе в первых двух неделях марта:
Как вы знаете, еще в VMware vSphere 4.1 появилась возможность "пробрасывать" USB-устройства сервера в виртуальные машины (USB device passthrough). В VMware vSphere 5 эти возможности еще были несколько улучшены за счет добавления поддержки устройств для проброса и от клиента (+USB 3.0), а не только от сервера. В этой заметке приведем основные особенности и условия использования USB-устройств в виртуальных машинах на серверах ESXi.
Для начала простые правила при пробросе USB-устройств сервера (Host-Connected USB Passthrough):
одно USB-устройствo может быть проброшено только в одну ВМ, для одной ВМ может быть использовано до 20 устройств
Для работы проброса необходима версия Virtual Hardware 7 или выше (в vSphere 5 - восьмая версия)
Понятное дело, на хосте должен быть USB-контроллер. USB arbitrator хоста ESXi может управлять 15-ю контроллерами
Для ВМ с привязанными к ним USB-устройствами можно использовать vMotion, но мигрировать сами устройства нельзя
Перед тем как использовать USB-устройство в ВМ, нужно добавить к ней USB-контроллер в настройках
Правила посложнее:
Перед отключением проброшенного в ВМ USB-устройства рекомендуется отключать проброс контроллера в ВМ.
Перед использованием функций Hot Add (memory, CPU) нужно отключать USB-устройства от ВМ, поскольку при добавлении ресурсов Hot Add устройства USB отключаются, что может привести к потере данных
Виртуальная машина не может загружаться с проброшенного устройства USB
Ну и наверное догадываетесь, что нельзя пробрасывать флэшку с самим ESXi
Контроллер xHCI (для устройств USB 3.0) доступен пока только для Linux-систем (начиная с ядра 2.6.35), для Windows драйверов пока нет
Также отметим, что начиная с VMware vSphere 5.0, стала доступной возможность пробрасывать USB-устройства в ВМ от клиентов (Client-Connected USB Passthrough). Поскольку эта возможность реализована на уровне клиента vSphere Client, то, используя клиента пятой версии, можно пробрасывать USB-девайсы на ВМ, размещенные на ESX/ESXi 4.1.
Таким образом, получается следующая таблица поддержки интерфейсов USB и типов подключения устройств:
Версия и тип интерфейса
Хосты ESX/ESXi 4.1
Хосты ESXi 5.0
USB 2.0/1.1 Host-Connected
Да
Да
USB 2.0/1.1 Client-Connected
Да (только при использовании vCenter 5.0)
Да
USB 3.0 Host-Connected
Нет
Нет
USB 3.0 Client-Connected
Нет
Да (с драйвером xHCI, которого еще нет)
USB-контроллер можно добавить к виртуальной машине как из Sphere Client:
так и из vSphere Web Client:
Вопреки расхожему мнению, поддержка USB-устройств в виртуальных машинах VMware vSphere весьма ограничена. Вот полный список поддерживаемых устройств из KB:
MAI KEYLOK Fortress Software Protection Dongle (Designed to work only with Windows operating systems.)
Note: This dongle is not designed for Linux systems. If you connect it to a Linux system, the connection resets frequently and can cause unexpected behavior.
Western Digital My Passport Essential 250GB 2.5 HDD
1058:0704
Western Digital External
Cables To Go USB 2.0 7-Port Hub Model# 29560
04cc:1521
Not applicable
То есть всего ничего - эти модели были протестированы чисто чтобы табличку заполнить. Все что за пределами этого списка следует тестировать самостоятельно, в этом случае вопросы в техподдержку VMware задавать не следует.
На сайте известного многим из вас проекта VMware Labs появилось очередное приложение. Бесплатное средство VMware vBenchmark, поставляемое в виде готового виртуального модуля (Virtual Appliance на базе SLES 11), позволяет измерять ключевые метрики производительности инфраструктуры VMware vSphere, анализировать времена типичных операций в виртуальной среде, а также определять показатели качества обслуживания для виртуальных сервисов (например, простой хост-серверов или сколько времени простоя помогают избежать функции высокой доступности).
То есть основная мысль vBenchmark - предоставить пользователю количественные показатели преимуществ, получаемых средствами инфраструктуры виртуализации VMware vSphere.
Основные возможности VMware vBenchmark:
Получение метрик с одного или нескольких серверов vCenter
Возможность включения или исключения хостов на уровне кластера из анализа
Возможность сохранять запросы к инфраструктуре и сравнивать их между собой в разные точки времени
Воможность сравнить ваше облако с аналогами по региону, отрасли и размеру организации, чтобы определить, насколько хорошо оно устроено
Последняя возможность предполагает загрузку результатов анализа в общий репозиторий, который представляет собой глобальную базу данных организаций.
Статистика инфраструктуры:
Метрики эффективности виртуальной среды:
Показатели типовых операций:
Все это и остальные вкладки утилиты вы можете увидеть в ролике, записанном Владаном Сегетом:
Скачать виртуальный модуль VMware vBenchmark можно по этой ссылке. Отметим, что он поставляется как в форматах OVF/OVA (vCenter+vCloud Director), так и в обычном VMX, что позволит развернуть продукт на VMware Workstation, Fusion и Player.
Как вы знаете, в VMware vSphere 5 есть возможность динамической миграции хранилищ виртуальных машин - Storage vMotion. Эта возможность позволяет не только без простоя перенести виртуальные машины между хранилищами и их LUN, но и изменять формат результирующего виртуального диска (thin или thick).
В этой заметке мы рассмотрим один из интересных аспектов миграции Storage vMotion - перенесение томов RDM (Raw Device Mapping) виртуальных машин, работающих в режиме виртуальной и физической совместимости (physical and virtual RDMs).
Также перенос хранилища виртуальной машины мы можем сделать не только в "горячем" режиме, но и в "холодном" с помощью функции Cold Migration (для выключенной ВМ). В этом случае мы также можем выбрать формат виртуального диска результирующей ВМ. Давайте посмотрим как эти условия влияют на перенос RDM томов во всех случаях.
Перенос включенных ВМ с физическим RDM (pRDM) средствами Storage vMotion:
Если вы пытаетесь изменить формат результирующего диска - Storage vMotion будет сделать нельзя.
Если вы не пытаетесь изменить формат - будет перемещен маппинг-файл pRDM тома с исходного VMFS-хранилища на результирующее. Данные останутся на исходном LUN.
Перенос включенных ВМ с виртуальным RDM (vRDM) средствами Storage vMotion:
Если вы изменяете формат результирующего диска (в advanced view) - том vRDM будет сконвертирован в VMDK-диск на целевом томе VMFS.
Если вы не изменяете формат - будет перемещен маппинг-файл vRDM тома с исходного VMFS-хранилища на результирующее. Данные останутся на исходном LUN.
Перенос выключенных ВМ с физическим RDM (pRDM) средствами Cold Migration:
Если вы изменяете формат результирующего диска (в advanced view) - том pRDM будет сконвертирован в VMDK-диск на целевом томе VMFS.
Если вы не изменяете формат - будет перемещен маппинг-файл pRDM тома с исходного VMFS-хранилища на результирующее. Данные останутся на исходном LUN.
Перенос выключенных ВМ с виртуальным RDM (vRDM) средствами Cold Migration:
Если вы изменяете формат результирующего диска (в advanced view) - том vRDM будет сконвертирован в VMDK-диск на целевом томе VMFS.
Если вы не изменяете формат - будет перемещен маппинг-файл vRDM тома с исходного VMFS-хранилища на результирующее. Данные останутся на исходном LUN.
Таким образом, у нас получается 3 ситуации, когда исходный RDM-том конвертируется в VMDK-диск на целевом томе, при этом в мастере миграции вас никто об этом не предупреждает.
Также есть еще один аспект при миграции таких томов. Если исходный RDM-том находился в режиме Independent Persistent (а pRDM обязательно в этом режиме находится), то, как следует из свойств этого диска, он не участвует в создании снапшотов ВМ.
После миграции, если он будет сконвертирован в vmdk-файл, то он также останется в этом режиме:
А это значит софт для резервного копирования виртуальных машин не будет бэкапить такой диск, поскольку он не участвует в создании снапшота. Учитывайте этот момент.
Приведение информационных систем в соответствие с требованиями №152-ФЗ «О персональных данных» является одной из самых актуальных проблем для многих российских компаний. На сегодняшний день использование технологий виртуализации в информационных системах персональных данных класса К1 невозможно без применения сертифицированных наложенных средств обеспечения информационной безопасности. Помимо требований законодательства, существуют и другие специфичные аспекты защиты виртуальных инфраструктур.
Продукт vGate R2, разработки компании «Код Безопасности», является единственным на рынке сертифицированным средством защиты информации от несанкционированного доступа (НСД), позволяющим осуществлять контроль ИБ-политик для виртуальных инфраструктур на базе платформ VMware Infrastructure 3 и VMware vSphere 4. Также уже выпущен технический релиз версии продукта для защиты виртуальных инфраструктур на базе платформы VMware vSphere 5 (финальная версия будет выпущена уже скоро).
разделение объектов инфраструктуры на логические группы и сферы администрирования через категоризацию
усиленная аутентификация, разделение ролей и делегирование полномочий
управление конфигурацией системы безопасности
защита от утечек через специфические каналы среды виртуализации
мониторинг событий ИБ и создание структурированных отчетов
Кроме того, возможность применять современные технологии виртуализации также получают организации, работающие с государственной тайной, защиту которой обеспечивает отдельная редакция продукта vGate-S R2, сертифицированная ФСТЭК России для защиты государственной тайны в автоматизированных системах до класса 1Б включительно и защиты информации в информационных системах персональных данных до 1 класса включительно.
Применение vGate R2 совместно с другими продуктами разработки «Кода Безопасности» позволяет построить комплексную систему защиты государственной тайны, конфиденциальной информации и персональных данных при их обработке в виртуальной среде. Для обеспечения контроля целостности и доверенной загрузки серверов виртуализации, сервера управления и сервера авторизации vGate R2 рекомендуется устанавливать на каждый из этих серверов аппаратно-программный модуль доверенной загрузки ПАК «Соболь»:
Для обеспечения защиты сетевого доступа к виртуальным машинам и контроля трафика между виртуальными машинами на одном сервере виртуализации рекомендуется применять распределенный межсетевой экран высокого класса защиты TrustAccess.
Применение TrustAccess для сегментирования ИСПДн позволяет отнести отдельные сегменты к более низкому классу и добиться снижения затрат на защиту информации. У TrustAccess также есть все необходимые сертификаты ФСТЭК.
Для защиты каждой виртуальной машины от НСД рекомендуется использовать средство защиты информации Secret Net, которое обеспечивает разграничение доступа, доверенную информационную среду, а также защиту информации в процессе хранения.
Надежность продуктов разработки компании «Код Безопасности» подтверждают сертификаты ФСТЭК России, позволяющие применять эти решения для систем различных классов защищенности (ИСПДн – до класса К1, АС – до классов 1Г, 1В, 1Б). О том как защищать персональные данные средствами vGate R2 мы уже писали вот тут.
Таким образом, используя средства компании Код Безопасности, вы можете защищать не только средства виртуализации и виртуальные машины, но и другие аспекты ИТ-инфраструктуры, которые неразрывно связаны с виртуальной средой.
О снапшотах виртуальных машин VMware vSphere мы уже много писали (например, можно пискать по тэгу "Snapshot"). Постараемся в этой заметке просуммировать информацию о том, что из себя представляют файлы снапшотов виртуальных машин vSphere 5 и как они обрабатываются.
Для того, чтобы снять снапшот виртуальной машины (virtual machine snapshot), можно кликнуть на ней правой кнопкой в vSphere Client и выбрать соответствующий пункт "Take Snapshot" из контекстного меню:
Далее появится окно снятия снапшота ВМ:
Обратите внимание на опцию "Snapshot the virtual machine's memory". Если эту галку убрать, то снапшот не будет содержать состояние памяти виртуальной машины, т.е. при откате к нему ВМ будет в выключенном состоянии. Плюс такого снапшота - он создается намного быстрее, поскольку не надо сохранять память машины в отдельный файл.
Вторая опция - это возможность "заморозки" файловой системы виртуальной машины на время создания снапшота. Она доступна только при условии установленных в гостевой ОС VMware Tools, в составе которых идет Sync Driver. Эта функциональность нужна для создания консистентного состояния виртуальной машины для снапшота на уровне файловой системы, что особенно необходимо при создании резервных копий (используют все системы резервного копирования для виртуализации, например, Veeam Backup and Replication). Данная возможность (quiesce) поддерживается не всегда - об условиях ее применения можно прочитать тут.
После создания снапшота заглянем в Datastore Browser на хосте VMware ESXi через vSphere Client:
Выделенные зеленым объекты - это абстрации двух снапшотов виртуальных машин. Чтобы понять, что собой представляют эти абстрации, откроем каталог с виртуальной машины в консоли (Putty по SSH):
Здесь мы уже видим, что снапшот на самом деле - это набор из четырех файлов:
<имя ВМ>-[шесть цифр]-delta.vmdk - файл данных диска отличий от базового диска
<имя ВМ>-[шесть цифр].vmdk - заголовочный файл
<имя ВМ>.vmsd - текстовый файл с параметрами снапшота (связи в дереве, SCSI-нода, время создания и т.п.)
<имя ВМ>.vmsn - файл с сохраненной памятью виртуальной машины
Самый главный файл - это, конечно, <имя ВМ>-[шесть цифр]-delta.vmdk. Он содержит блоки данных хранимые в формате так называемых redo-логов (он же дочерний диск - child disk). Он же sparse-диск, то есть диск, который использует технологию Copy-On-Write (COW) при работе с данными. Идея технологии copy-on-write — при копировании областей данных создавать реальную копию только когда ОС обращается к этим данным с целью записи. Таким образом, этот виртуальный диск содержит только измененные от родительского диска области данных (delta).
По умолчанию размер COW-операции составляет 64 КБ, что эквивалентно 128 секторам (подробнее). Но сам снапшот растет блоками данных по 16 МБ. То есть запись 64 КБ данных исходного диска может породить прирост 16 МБ данных в диске снапшота.
Следующий интересный тип файла - <имя ВМ>.vmsd. Это обычный текстовый файл, который можно открыть в редакторе и увидеть все отношения между родительским и дочерними дисками, а также другую интересную информацию:
Ну и последнее - это память виртуальной машины, хранящаяся в файле <имя ВМ>.vmsn. Его, понятное дело, может не быть, если вы создавали снапшот выключенной ВМ или убрали галку, о которой написано в самом начале.
По умолчанию снапшоты складываются в папку на VMFS-томе, где лежит виртуальная машина. Но это размещение можно сменить, поменяв рабочую папку (Working Directory) в настройках виртуальной машины через vSphere Client или в vmx-файле, для чего нужно добавить или поменять строчку:
workingDir="/vmfs/volumes/SnapVolume/Snapshots/"
Кстати, эта же папка задает и размещение файла подкачки ВМ (*.vswp). Если вы его хотите оставить на прежнем месте, нужно добавить строчку:
sched.swap.dir = "/vmfs/volumes/VM-Volume1/MyVM/"
Ну и напоследок, какие операции поддерживаются для виртуальных машин со снапшотами:
Операция
Требования и комментарии
Storage vMotion
Для хостов ESX/ESXi 4.1 или более ранних - не поддерживатся. Для ESXi 5.0 или более поздних - поддерживается.
vMotion
Поддерживается. Файлы снапшотов должны быть доступны на целевом хосте. Необходима версия hardware version 4 или более поздняя (ESX/ESXi 3.5 и выше).
Cold migration
Поддерживается для хостов ESX/ESXi 3.5 или более поздних.
Fault Tolerance
Не поддерживается. Для создания снапшота нужно отключить FT.
Hot clone
Поддерживается, но снапшотов не должно быть больше 31 штуки.
Cold clone
Поддерживается. Однако целевая ВМ будет без снапшотов.
Более подробную информацию о снапшотах можно найти в KB 1015180.
Ну и небольшая подборка ссылок по траблшутингу снапшотов в VMware vSphere:
На сайте проекта VMware Labs появилась весьма достойная внимания утилита - GUI-плагин к vSphere Client для VMware Auto Deploy. Как вы знаете, среди новых возможностей VMware vSphere 5 появились функции Auto Deploy (только для Enterprise Plus издания), которые позволяют развертывать хост-серверы VMware ESXi по сети через механизм PXE. Это позволяет использовать бездисковые серверы ESXi и проводить массовые развертывания хостов в больших виртуальных инфраструктурах.
Теперь плагин Auto Deploy GUI к vSphere Client позволит настраивать параметры такого развертывания без необходимости использования интерфейса командной строки PowerCLI/PowerShell:
Плагин Auto Deploy GUI весит всего 8 МБ и предоставляет следующие возможности:
Создание и управление профилями образов ESXi (image profiles)
Правила (rules), отражающие мапинг хостов к профилям образов
Поддержка профилей хостов (Host Profiles) для правил, соответствующих профилям образов
Проверка соответствия хостов правилам и приведение в соответствие с ними
Просмотр параметров VIB
Возможность использования стандартных хранилищ образов ESXi и агентов (HA, vCloud), а также сторонних репозиториев
Возможность встраивания пакетов ПО и драйверов
Клонирование сконфигурированного образа
К Auto Deploy GUI идет хороший документ по настройке (без воды - Practical Guide), скачать его можно по этой ссылке. Сам же плагин Auto Deploy GUI можно скачать тут.
Если вам не терпится посмотреть на то, что из себя представляет новая версия настольной ОС Microsoft Windows 8, то есть способ это сделать, не мучая физический компьютер. Если раньше официальная статья KB 2006859 говорила о том, что в виртуальной машине Windows 8 поставить нельзя, то теперь вышел патч для vSphere 5, а William Lam описал способ развертывания гостевой ОС.
Способ очень прост:
1. Устанавливаем на хост VMware ESXi патч ESXi500-201112001 (patch02) из VMware patch repository.
2. Создаем виртуальную машину, указав в качестве гостевой ОС Windows 7 или Windows 2008 R2.
3. Заходим в настройки ВМ "Hardware->Video Card" и включаем "3D graphics support" (нужно для установки VMware Tools).
4. Привязываем к ВМ ISO-образ Windows 8 и запускаем установку.
В итоге Windows 8 в виртуальной машине vSphere 5 работает отлично:
Ну а Windows 8 Developer Preview можно скачать по этой ссылке. Как мы уже писали, бета-версию Windows 8 обещают к концу февраля, а окончательный релиз - к концу года.
Alan Renouf, автор множества полезных скриптов PowerCLI для администрирования инфраструктуры VMware vSphere, выпустил очередное обновление своей бесплатной утилиты vCheck 6.
vCheck 6 - это PowerCLI-скрипт, который готовит отчетность по объектам окружения VMware vSphere и отсылает результат на почту администратора, из которого можно узнать о текущем состоянии виртуальной инфраструктуры и определить потенциальные проблемы.
Пример получаемого отчета можно посмотреть тут (кликабельно):
Вот полный список того, что может выдавать скрипт vCheck 6:
General Details
Number of Hosts
Number of VMs
Number of Templates
Number of Clusters
Number of Datastores
Number of Active VMs
Number of Inactive VMs
Number of DRS Migrations for the last days
Snapshots over x Days old
Datastores with less than x% free space
VMs created over the last x days
VMs removed over the last x days
VMs with No Tools
VMs with CD-Roms connected
VMs with Floppy Drives Connected
VMs with CPU ready over x%
VMs with over x amount of vCPUs
List of DRS Migrations
Hosts in Maintenance Mode
Hosts in disconnected state
NTP Server check for a given NTP Name
NTP Service check
vmkernel warning messages ov the last x days
VC Error Events over the last x days
VC Windows Event Log Errors for the last x days with VMware in the details
VC VMware Service details
VMs stored on datastores attached to only one host
VM active alerts
Cluster Active Alerts
If HA Cluster is set to use host datastore for swapfile, check the host has a swapfile location set
Host active Alerts
Dead SCSI Luns
VMs with over x amount of vCPUs
vSphere check: Slot Sizes
vSphere check: Outdated VM Hardware (Less than V7)
VMs in Inconsistent folders (the name of the folder is not the same as the name)
VMs with high CPU usage
Guest disk size check
Host over committing memory check
VM Swap and Ballooning
ESXi hosts without Lockdown enabled
ESXi hosts with unsupported mode enabled
General Capacity information based on CPU/MEM usage of the VMs
vSwitch free ports
Disk over commit check
Host configuration issues
VCB Garbage (left snapshots)
HA VM restarts and resets
Inaccessible VMs
Плюс ко всему, скрипт имеет расширяемую структуру, то есть к нему можно добавлять свои модули для различных аспектов отчетности по конкретным приложениям. Список уже написанных Аланом плагинов можно найти на этой странице.
Вот эта заметка на блоге VMware напомнила об одной интересной особенности поведения правил совместного и несовместного размещения виртуальных машин на хосте ESX/ESXi (DRS Host Affinity Rules).
Напомним, что для виртуальных машин в класетере DRS можно задавать данные правила для ситуаций, когда требуется определенным образом распределять группы виртуальных машин по хостам или их группам. Требуется это обычно для соблюдения правил лицензирования (см., например, правила лицензирования для ВМ Oracle), когда виртуальные машины могут исполняться только на определенных физических серверах, либо для всяких экзотических ситуаций, когда, к примеру, основную и резервную системут нужно держать на разных хостах.
То есть, мы задаем группы виртуальных машин и хостов:
И указываем, что виртуальные машины DRS-группы могут работать только на данной DRS-группе хостов:
Правила эти бывают мягкими (preferential), когда DRS+HA будут стараться следовать им при штатном функционировании кластера, и жесткими (mandatory, "Must run") - в этом случае ни при каких условиях виртуальные машины не переедут на хосты не из группы. Этого не произойдет ни средствами vMotion/DRS/Maintenance Mode, ни средствами перезапуска HA в аварийных ситуациях.
Для жестких правил есть один интересный аспект: они сохраняются и продолжают действовать даже тогда, когда вы отключили кластер VMware DRS. То есть вы не сможете сделать ручной vMotion или Power On машин на хостах не из группы, а HA не будет их там перезапускать. При этом в настройках кластера с отключенным DRS уже не будет возможности редактирования этих правил (категория VMware DRS пропадет). Это сделано для того, чтобы во время временных сбоев (например, vCenter) лицензионные правила существования ВМ для приложений на хостах не нарушались в любом случае.
Поэтому, если нужно удалить правила, нужно снова включить DRS, удалить их и снова отключить DRS.
Таги: VMware, DRS, Обучение, vSphere, ESX, ESXi, vMotion, HA